Appearance
More is Better (Mostly): On the Backdoor Attacks in Federated Graph Neural Networks
论文链接
https://static.aminer.cn/storage/pdf/arxiv/22/2202/2202.03195.pdf
论文代码
https://github.com/xujing1994/bkd_fedgnn
简介和背景介绍
该文核心是将cv领域中联邦学习的DBA攻击和CBA攻击迁移到和适配到图联邦学习中
在CV相关的研究中一个全局触发器可以通过分散在多个客户端的局部触发器组成并且发挥作用,但是由于图数据的非欧性导致这在GNN中难以直接进行复刻,因为难以确定触发器的实际位置以及触发器本身会影响和改变图的结构,造成不对齐的更新,并且容易被各种防御手段限制
定义
联邦学习
联邦学习使得n个客户端能够协作训练全局模型,无需透露本地数据集,联邦学习通过将本地模型权重上传到中央服务器完成参数更新
每次迭代时训练分为三步:
- 所有客户端从服务器下载全局模型
- 每个客户端使用自身的数据集来更新全局模型
- 客户端上传本地模型后服务器聚合多个客户端的局部模型来获得新的全局模型
后门攻击
后门攻击是使模型将输入错误地分类为我们预设的标签,并且不影响他的原始任务。一般通过在训练集中加入触发器(trigger)来毒害模型,然后在测试集中注入触发器来进行攻击。若测试集中没有触发器,模型正常进行分类;若测试集中包含触发器,则分类结果为我们预设的标签。不过下游任务也不一定是标签分类,这里只是以标签分类进行举例
本地触发器和全局触发器
本地触发器使DBA攻击中分散在各个恶意客户端的具有特定图结构的触发器,全局触发器是所有本地触发器的组合
DBA(分布式后门攻击)
DBA有多个恶意客户端,每个客户端有其本地触发器来注入客户端自身的训练集中,所有恶意客户端都有相同的后门任务
CBA(集中式后门攻击)
多个本地触发器组成的全局触发器注入到一个恶意客户端的训练集中
攻击者的能力
我们假设攻击者可以破坏
DBA的实现
其中
CBA的实现
基本和上述DBA差不多,只不过只有一个恶意客户端,并且为了保证二者攻击的公平性我们将之前DBA的local trigger合在一起得到global trigger来进行注入